15 resultados para Método de otimização de Luus-Jaakola

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No panorama energético atual, medidas de desenvolvimento sustentável têm uma preponderância cada vez mais significativa e, sendo os edifícios responsáveis por 40% da energia consumida na EU, enquadra-se o desafio de integrar medidas de eficiência energética nos novos edifícios desde a fase de conceção. Sendo que este setor se encontra em contínua expansão, a redução dos consumos passará largamente pela otimização do comportamento térmico dos edifícios e dos sistemas energéticos que os equipam. No presente trabalho estudou-se o papel da inércia térmica na redução das necessidades de energia para climatização de edifícios com o objetivo de identificar estratégias destinadas ao melhoramento do comportamento térmico e desempenho energético de edifícios construídos com recurso à técnica construtiva LSF, caracterizados por uma fraca inércia térmica quando comparados com edifícios em tudo semelhantes mas construídos recorrendo a tecnologias convencionais sem esquecer as questões relacionadas com a respetiva viabilidade económica. Com resultado geral destaca-se desde logo a importância do local onde é mais benéfico adicionar massa térmica (paredes exteriores, cobertura, paredes interiores), assim como a necessidade de utilização de um material com elevada densidade energética e baixo custo. A análise comparativa dos diferentes modelos de edifício simulados com recurso ao software DesignBuilder/EnergyPlus, foi realizada recorrendo a uma metodologia em que cada modelo construtivo é avaliado considerando quatro níveis de isolamento térmico e duas condições de cargas térmicas internas. A análise energética e económica foi realizada tendo como referência um período de 20 anos. O custo das soluções construtivas foi maioritariamente obtido através da ferramenta computacional Gerador de Preços, da Cype, SA©, tendo-se considerado um consumo energético anual constante e igual às necessidades de climatização anuais, assim como taxas de atualização de capital e de inflação do custo da energia constantes. De uma forma geral conclui-se que edifícios do tipo LSF melhorados através da adição criteriosa de massa térmica em determinados elementos construtivos, apresentam necessidades de climatização anuais na maioria dos casos estudados, inferiores àquelas verificadas em edifícios convencionais com inércia térmica média/forte. Conclui-se, também, que o método construtivo LSF se apresenta mais eficaz em termos energéticos e económicos quando comparado com soluções semelhantes construídas com recurso a um método convencional. Na secção seguinte são identificadas as principais conclusões deste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os problemas relacionados com o consumo energético e as emissões de poluentes relativas ao setor dos transportes representam seguramente a maior preocupação ao nível Europeu no que respeita aos gases com efeito de estufa e à poluição atmosférica. Uma das formas de resolver/minimizar estes problemas é através da aposta em combustíveis alternativos. Em particular, os biocombustíveis poderão ser uma alternativa interessante aos combustíveis convencionais. As microalgas, como matéria-prima para produção de biodiesel, apresentam-se com excelentes perspetivas de futuro e com vantagens competitivas no campo das energias renováveis. É nesta perspetiva que se enquadra o presente trabalho, cujos objetivos consistiram na extração de biodiesel a partir de microalgas secas (Nannochloropsis gaditana e Scenedesmus sp.) e na otimização das respetivas técnicas de extração lipídica. Verificou-se que, em função dos métodos e condições utilizadas, a espécie Nannochloropsis gaditana apresenta um potencial de produção de biodiesel superior à espécie Scenedesmus sp. (eficiências de extração de 24,6 (wt.%) e 9,4 (wt.%) respetivamente). Um método de rotura celular conjugado com o processo de extração lipídica via solvente orgânico é essencial, pois conseguiu-se um acréscimo de 42% no rendimento de extração, sendo 10 minutos o tempo ideal de operação. Solventes como o metanol e sistema de solventes diclorometano/metanol mostraram ser mais eficazes quando se pretende extrair lípidos de microalgas, com valores de eficiência de remoção de 30,9 (wt.%) e 23,2 (wt.%) respetivamente. De forma a valorizar os resultados obtidos no processo de extração recorreu-se à sua conversão em biodiesel através da transesterificação catalítica ácida, onde se obteve uma eficiência de conversão de 17,8 (wt.%) para a espécie Nannochloropsis gaditana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho consiste numa proposta metodológica, denominada A∴418, que visa abordar a actividade especulativa dos performers no que diz respeito às suas concepções interpretativas dos discursos musicais. Foram identificados dois factores inerentes a esta actividade – as concepções expressiva e técnica – como estando na base da configuração final deste processo. O A∴418 resulta de um processo de aplicação de técnicas de análise musical vocacionadas para o estudo da interpretação musical, são elas a Análise da Intenção Musical Interpretativa (direccionada para a concepção expressiva da narrativa sonora) e a Análise Técnica da Intenção Musical Interpretativa (direccionada para a concepção técnico-instrumental do discurso musical). A sistematização deste processo metodológico conduz à produção de uma partitura final, revista pelo músico-instrumentista, na qual acrescem ao discurso original do compositor indicações que reflectem a concepção técnicoexpressiva produzida pelo performer que interpreta a obra musical. Esta metodologia foi demonstrada através da sua aplicação à concepção musical interpretativa do Concerto para Violoncelo em La menor, RV 418, de Antonio Vivaldi, tendo em conta as demandas específicas deste instrumento musical e a leitura idiossincrática que o autor fez desta obra musical em concreto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um levantamento de processos transcricionais usados por músicos, desde compositores do período barroco até músicos contemporâneos. Este conjunto de técnicas permite encontrar alternativas às eventuais problemáticas levantadas durante a transcrição e simultaneamente, processos para manter inalterada a significação proposta pelo compositor. Seguidamente, apresenta-se um conjunto de obras transcritas com apoio nas técnicas anteriormente observadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A reação entre o óxido de magnésio (MgO) e o fosfato de monoamónio (MAP), à temperatura ambiente, origina os cimentos de fosfato de magnésio, materiais caracterizados pela sua presa rápida e pelas excelentes propriedades mecânicas adquiridas precocemente. As propriedades finais são dependentes, essencialmente, da composição do cimento (razão molar magnésia:fosfato e utilização de retardantes de presa) mas também são influenciadas pela reatividade da magnésia utilizada. Neste trabalho, a reação foi caracterizada através do estudo da influência da razão molar MgO:MAP (variando de 1:1 até 8:1), da presença e teor de aditivos retardantes (ácido bórico, ácido cítrico e tripolifosfato de sódio) e da variação da área superficial específica da magnésia (conseguida por calcinação do óxido), no tempo de presa, na temperatura máxima atingida e nas fases cristalinas finais formadas. A reação de presa pode ser comparada à hidratação do cimento Portland, com a existência de 4 estágios (reação inicial, indução, aceleração e desaceleração), com a diferença que estes estágios ocorrem a velocidade muito mais alta nos cimentos de fosfato de magnésio. Este estudo foi realizado utilizando a espetroscopia de impedâncias, acompanhada pela monitorização da evolução de temperatura ao longo do tempo de reação e, por paragem de reação, identificando as fases cristalinas formadas. A investigação do mecanismo de reação foi complementada com a observação da microestrutura dos cimentos formados e permitiu concluir que a origem da magnésia usada não afeta a reação nem as propriedades do cimento final. A metodologia de superfície de resposta foi utilizada para o estudo e otimização das características finais do produto, tendo-se mostrado um método muito eficaz. Para o estudo da variação da área superficial específica da magnésia com as condições de calcinação (temperatura e tempo de patamar) usou-se o planeamento fatorial de experiências tendo sido obtido um modelo matemático que relaciona a resposta da área superficial específica da magnésia com as condições de calcinação. As propriedades finais dos cimentos (resistência mecânica à compressão e absorção de água) foram estudadas utilizando o planeamento simplex de experiências, que permitiu encontrar modelos que relacionam a propriedade em estudo com os valores das variáveis (razão molar MgO:MAP, área superficial específica da magnésia e quantidade de ácido bórico). Estes modelos podem ser usados para formular composições e produzir cimentos com propriedades finais específicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tratamento físico-químico de águas residuais, de origem industrial, mais comum é o tratamento baseado na adição de coagulante e floculante a um efluente. No entanto, o tratamento eletroquímico é um tipo de tratamento que tem vindo a ser explorado e estudado com mais ênfase ao longo dos últimos anos. O tratamento eletroquímico é uma tecnologia AOP (Processos de Oxidação Avançada) e divide-se em eletrólise direta (oxidação e redução) e indireta (eletrocoagulação-flotação e eletrooxidação). A eletrocoagulação e eletrooxidação divergem apenas pelo tipo de reações que ocorrem, devido ao material que constitui os elétrodos. São processos complexos com uma multiplicidade de mecanismos que operam sinergicamente para remover poluentes da água. Tendo em conta a sua complexidade e ainda dificuldade de compreensão, existem na literatura diferentes versões acerca de quais os mecanismos chave, assim como diversas configurações geométricas de reatores e elétrodos. Atualmente, este tipo de tratamento tem vindo a evoluir, tornando-se num método economicamente viável para o tratamento de uma grande variedade de águas residuais, nomeadamente, aquelas que possuem compostos recalcitrantes na sua composição. O presente trabalho foi realizado nas instalações da VentilAQUA S.A. e, tendo em conta a sua área de especialidade, o trabalho exposto focou-se no desenvolvimento de soluções técnicas de AOP, nomeadamente na área eletroquímica (eletrocoagulação e eletrooxidação),para estudo dos parâmetros operacionais numa nova configuração geométrica para os elétrodos. Tendo por base os contributos da revisão bibliográfica, o estudo incidiu num reator tubular, com elétrodos de inox dispostos de forma concêntrica, à mesma distância entre si. Com este reator foram executados variados testes, com diferentes efluentes, que permitiram obter resultados operacionais de otimização de funcionamento, tendo em vista a remoção de poluentes. O estudo financeiro associado permitiu concluir que a eletrooxidação é significativamente mais económica que o tratamento físico-químico, nas condições operacionais e para os efluentes tratados. Relativamente ao Acompanhamento e Gestão de ETAR’s (Capítulo 4) foi possível verificar que todos os casos em estudo apresentam uma boa eficiência de remoção de matéria orgânica, permitindo a descarga do seu efluente com uma carga poluente que cumpre com os requisitos legais de descarga em meio hídrico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para o ser humano, a água sempre foi um recurso essencial ao longo da sua evolução. Hoje em dia, com todo o avanço tecnológico, a água é um bem muito vulnerável às diversas atividades antropogénicas. Entre os muitos contaminantes que podem afetar a qualidade da água para consumo humano, os metais causam grande preocupação devido à sua elevada toxicidade. O mercúrio é um dos contaminantes que deve ser devidamente controlado devido ao seu elevado grau de toxicidade. Este Estágio foi realizado no Laboratório Luságua e o seu principal objetivo foi avaliar se era possível baixar o limite de quantificação da técnica existente na empresa para quantificar o mercúrio em águas de consumo e validar o método através do cálculo de vários parâmetros de controlo de qualidade. Foi ainda feita a comparação entre a técnica de quantificação de mercúrio existente na Luságua (CV-AAS) e a existente na Universidade de Aveiro (CVAFS) para avaliar se havia uma mais-valia para a Luságua se adquirisse um novo equipamento para analisar o mercúrio em águas. Os parâmetros de validação avaliados nos dois métodos derem resultados semelhantes, não identificando a necessidade atual de substituir o equipamento existente na Luságua, até porque se conseguiu baixar o limite de quantificação, atingindo assim o objetivo estabelecido no início para este Estágio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivos a produção, caracterização e aplicação de microelétrodos (MEs) de diamante como sensores amperométricos e potenciométricos em sistemas de corrosão nos quais a agressividade do meio e a presença de produtos de corrosão, constituem obstáculos que podem diminuir o desempenho, ou inviabilizar a utilização, de outros tipos de sensores. Os microeléctrodos são baseados em filmes finos de diamante dopado com boro (BDD – Boron Doped Diamond) depositados sobre fios de tungsténio afiados, através do método de deposição química a partir da fase vapor, assistida por filamento quente (HFCVD – Hot Filament Chemical Vapor Deposition). A otimização das diversas etapas de fabricação dos MEs deu origem ao desenvolvimento de um novo sistema de afiamento eletroquímico para obtenção destes fios e a várias opções para a obtenção dos filmes de diamante condutor e seu isolamento com resinas para exposição apenas da ponta cilíndrica. A qualidade cristalina dos filmes de diamante foi avaliada por espectroscopia de Raman. Esta informação foi complementada com uma caracterização microestrutural dos filmes de diamante por microscopia eletrónica de varrimento (SEM), em que se fez a identificação da tipologia dos cristais como pertencendo às gamas de diamante nanocristalino ou microcristalino. Os filmes de BDD foram utilizados na sua forma não modificada, com terminações em hidrogénio e também com modificação da superfície através de tratamentos de plasma RF de CF4 e O2 indutores de terminações C-F no primeiro caso e de grupos C=O, C-O-C e C-OH no segundo, tal como determinado por XPS. A caracterização eletroquímica dos MEs não modificados revelou uma resposta voltamétrica com elevada razão sinal/ruído e baixa corrente capacitiva, numa gama de polarização quasi-ideal com extensão de 3 V a 4 V, dependente dos parâmetros de crescimento e pós-tratamentos de superfície. Estudou-se a reversibilidade de algumas reações heterogéneas com os pares redox Fe(CN)6 3-/4- e FcOH0/+ e verificou-se que a constante cinética, k0, é mais elevada em elétrodos com terminações em hidrogénio, nos quais não se procedeu a qualquer modificação da superfície. Estes MEs não modificados foram também testados na deteção de Zn2+ onde se observou, por voltametria cíclica, que a detecção da redução deste ião é linear numa escala log-log na gama de 10-5-10-2 M em 5 mM NaCl. Realizaram-se também estudos em sistemas de corrosão modelares, em que os microeléctrodos foram usados como sensores amperométricos para mapear a distribuição de oxigénio e Zn2+ sobre um par galvânico Zn-Fe, com recurso a um sistema SVET (Scanning Vibrating Electrode Technique). Foi possível detetar, com resolução lateral de 100 μm, um decréscimo da concentração de O2 junto a ambos os metais e produção de catiões de zinco no ânodo. Contudo verificou-se uma significativa deposição de zinco metálico na superfície dos ME utilizados. Os MEs com superfície modificada por plasma de CF4 foram testados como sensores de oxigénio dissolvido. A calibração dos microeléctrodos foi efetuada simultaneamente por voltametria cíclica e medição óptica através de um sensor de oxigénio comercial. Determinou-se uma sensibilidade de ~0.1422 nA/μM, com um limite de deteção de 0.63 μM. Os MEs modificados com CF4 foram também testados como sensores amperométricos com os quais se observou sensibilidade ao oxigénio dissolvido em solução, tendo sido igualmente utilizados durante a corrosão galvânica de pares Zn-Fe. Em alguns casos foi conseguida sensibilidade ao ião Zn2+ sem que o efeito da contaminação superficial com zinco metálico se fizesse sentir. Os microeléctrodos tratados em plasma de CF4 permitem uma boa deteção da distribuição de oxigénio, exibindo uma resposta mais rápida que os não tratados além de maior estabilidade de medição e durabilidade. Nos MEs em que a superfície foi modificada com plasma de O2 foi possível detetar, por cronopotenciometria a corrente nula, uma sensibilidade ao pH de ~51 mV/pH numa gama de pH 2 a pH 12. Este comportamento foi associado à contribuição determinante de grupos C-O e C=O, observados por XPS com uma razão O/C de 0,16. Estes MEs foram igualmente testados durante a corrosão galvânica do par Zn-Fe onde foi possível mapear a distribuição de pH associada ao desenvolvimento de regiões alcalinas causadas pela redução do oxigénio, acima da região catódica, e de regiões ácidas decorrentes da dissolução anódica do ânodo de zinco. Com o par galvânico imerso em 50 mM NaCl registou-se uma variação de pH aproximadamente entre 4,8 acima do ânodo de zinco a 9,3 sobre o cátodo de ferro. A utilização pioneira destes MEs como sensores de pH é uma alternativa promissora aos elétrodos baseados em membranas seletivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main objective of the present work is the study of a profitable process not only in the extraction and selective separation of lycopene and β-carotene, two compounds present in tomato, but also in its potential application to food industry wastes. This is one of the industries that produce larger amounts of wastes, which are rich in high value biomolecules with great economic interest. However, the conventional methods used to extract this kind of compounds are expensive which limits their application at large scale. Lycopene and βcarotene are carotenoids with high commercial value, known for their antioxidant activity and benefits to human health. Their biggest source is tomato, one of the world’s most consumed fruits, reason for which large quantities of waste is produced. This work focuses on the study of diverse solvents with a high potential to extract carotenoids from tomato, as well as the search for more environmentally benign solvents than those currently used to extract lycopene and β-carotene from biomass. Additionally, special attention was paid to the creation of a continuous process that would allow the fractionation of the compounds for further purification. Thus, the present work started with the extraction of both carotenoids using a wide range of solvents, namely, organic solvents, conventional salts, ionic liquids, polymers and surfactants. In this stage, each solvent was evaluated in what regards their capacity of extraction as well as their penetration ability in biomass. The results collected showed that an adequate selection of the solvents may lead to the complete extraction of both carotenoids in one single step, particularly acetone and tetrahydrofuran were the most effective ones. However, the general low penetration capacity of salts, ionic liquids, polymers and surfactants makes these solvents ineffective in the solid-liquid extraction process. As the organic solvents showed the highest capacity to extract lycopene and βcarotene, in particular tetrahydrofuran and acetone, the latter solvent used in the development process of fractionation, using to this by strategic use of solvents. This step was only successfully developed through the manipulation of the solubility of each compound in ethanol and n-hexane. The results confirmed the possibility of fractionating the target compounds using the correct addition order of the solvents. Approximately, 39 % of the β-carotene was dissolved in ethanol and about 64 % of lycopene was dissolved in n-hexane, thus indicating their separation for two different solvents which shows the selective character of the developed process without any prior stage optimization. This study revealed that the use of organic solvents leads to selective extraction of lycopene and β-carotene, allowing diminishing the numerous stages involved in conventional methods. At the end, it was possible to idealize a sustainable and of high industrial relevance integrated process, nevertheless existing the need for additional optimization studies in the future.